Diciembre 04 de 2020

Introducción

El análisis de imágenes como problema estadístico

Sus partes son:

  • Dendritas: Constituyen el canal de entrada de la información.

  • Sinapsis: Conexión entre neuronas.

  • Cuerpo celular (Soma): Es el órgano de cómputo.

  • Axón: Corresponde al canal de salida.

Dependencia espacial

Rejillas y Lattices

Modelo de Ising

# ### El modelo de Potts

Segmentación de imágenes

Aprendizaje automático

¿Cómo entrenar una red neuronal?

Se trata de un proceso iterativo de “ir y venir” por las capas de neuronas.

  • Forwardpropagation: Se expone la red a los datos de entrenamiento y estos cruzan toda la red neuronal para ser calculadas sus predicciones (labels). Es decir, pasar los datos de entrada a través de la red de tal manera que todas las neuronas apliquen su transformación a la información que reciben de las neuronas de la capa anterior y la envíen a las neuronas de la capa siguiente. Cuando los datos hayan cruzado todas las capas, y todas sus neuronas han realizado sus cálculos, se llegará a la capa final con un resultado de predicción de la label para aquellos ejemplos de entrada.

  • Función de Loss: Se usa para estimar el error, para comparar y medir qué tan bueno/malo fue el resultado de la predicción en relación con el resultado correcto. Idealmente, queremos que nuestro coste sea cero, es decir, sin divergencia entre valor estimado y el esperado. Por eso a medida que se entrena el modelo se irán ajustando los pesos de las interconexiones de las neuronas de manera automática hasta obtener buenas predicciones.

  • Backpropagation: Partiendo de la capa de salida, esa información de loss se propaga hacia todas las neuronas de la capa oculta que contribuyen directamente a la salida. Sin embargo las neuronas de la capa oculta solo reciben una fracción de la señal total de la loss, basándose aproximadamente en la contribución relativa que haya aportado cada neurona a la salida original.

Algunos problemas en el entrenamiento de las redes neuronales

  • Valores iniciales: Se hace referencia a los valores que los pesos iniciales pueden tomar. Así, es recomendable llevar acabo una asignación de pesos pequeños generados de forma aleatoria.

\[w_{ij} \in (-0.5,0.5)\]

  • Sobreajuste: También denominado “overfitting”, se produce cuando un sistema de aprendizaje automático se entrena demasiado o con datos anómalos, que hace que el algoritmo aprenda patrones que no son generales.
  • Escalado de las entradas: Es preferible estandarizar todas las entradas para que tengan una media de cero y una desviación estándar de uno.

\[\tilde{x}_{i}=\displaystyle{\frac{(x_{i}-\bar{x}_{i})}{sd}}\]

  • Número de capas y unidades ocultas: El número de unidades ocultas está directamente relacionado con las capacidades de la red. En general, es mejor tener demasiadas unidades ocultas que muy pocas.

Bibliografía

  • Hastie, T., Tibshirani, R., & Friedman, J. (2009). The elements of statistical learning: data mining, inference, and prediction. Springer Science & Business Media.

  • Efron, B., & Hastie, T. (2016). Computer age statistical inference (Vol. 5). Cambridge University Press.

¡Gracias por tu atención!